ترتفع نبرات التحذير بشأن مخاطر الذكاء الاصطناعي إلى مستوى جديد من الشدة. فبينما يشعر الباحثون في مجال الذكاء الاصطناعي بالقلق منذ فترة طويلة من أن الذكاء الاصطناعي قد يدفع الناس إلى ترك وظائفهم، والتلاعب بهم عن طريق مقاطع الفيديو المزيفة، ومساعدة المتسللين على سرقة الأموال والبيانات.. يحذِّر البعضُ بشكل متزايد من أن التكنولوجيا يمكن أن تسيطر على البشرية نفسها.

في أبريل الماضي، نشرت شخصيات بارزة في مجال التكنولوجيا رسالة مفتوحة تحث جميع مختبرات الذكاء الاصطناعي على التوقف عن تدريب أقوى أنظمتها الذكية لمدة ستة أشهر على الأقل. وفي الشهر الماضي، وقّع مئات من باحثي الذكاء الاصطناعي وغيرهم على بيان يرى أنه يتعين على البشرية أن تتعامل مع «خطر الانقراض» على يد التكنولوجيا بنفس الأولوية التي تمنحها الآن للحرب النووية والأوبئة.

وقال رائد الذكاء الاصطناعي «جيفري هينتون» لشبكة «سي إن إن» في 11 يونيو الماضي: «الفكرة هي أن هذه الأشياء ستصبح أكثر ذكاءً منا وقد تحل محلنا في الواقع، لقد شعرت بالقلق منذ بضعة أشهر فقط». وأضاف: «لقد كنت أفترض أن الدماغ أفضل، لكني أدركت فجأةً أن الخوارزمية التي لدينا هي في الواقع أفضل من الدماغ بالفعل. وعندما نوسع نطاقَها، سنجعل الأشياءَ أكثر ذكاءً منا».

ويذكر هينتون أنه استقال من عمله في شركة جوجل في شهر مايو حتى يتمكن من التحدث بحرية عن مثل هذه المخاطر. لكن علماء آخرين يستخفون بهذا الحديث عن إمكانية حدوث كارثة، ويقولون إن الخطر الحقيقي لا يكمن في أن البشرية تصنع بالصدفة آلات ذكية للغاية، لكنها تبدأ في الوثوق بأجهزة الكمبيوتر غير الذكية بدرجة كافية.

وأضافوا أنه على الرغم من التقدم الكبير الذي حققته التكنولوجيا والفوائد المحتملة التي تقدمها، فإنها ما تزال ترتكب الكثيرَ من الأخطاء التي لا يمكن الوثوق بها ضمنياً.

ومع ذلك، فإن الخطوط الفاصلة بين هذه السيناريوهات ضبابية، خاصة وأن أجهزة الكمبيوتر التي يحركها الذكاء الاصطناعي تتقدم بسرعة أكبر دون امتلاك قدرات التفكير الأخلاقي للبشر. القاسم المشترك هو الأسئلة التي تتعلق بالثقة: ما مقدار الثقة الذي تستحقه الآلات؟

ما مدى الخطر الذي يتعرض له البشر إذا كانت الثقة في هذه الآلات في غير محلها؟والواقع أن الأنظمة معقدة للغاية لدرجة أن العلماء الذين قاموا بإنشائها لا يعرفون على وجه اليقين سبب توصل هذه الأنظمة إلى الإجابات التي تقدمها، والتي غالباً ما تكون مذهلة، وفي بعض الأحيان، زائفة تماماً.

يقول «ديريك ليبن»، خبير أخلاقيات الأعمال في جامعة كارنيجي ميلون في بيتسبرج ومؤلف كتاب «أخلاقيات الروبوتات.. كيفية تصميم خوارزمية أخلاقية»: «من المستحيل عملياً معرفة سبب إنتاج هذه السلسلة من النصوص». ويقول «ييلون دو»، طالب دكتوراه في معهد ماساتشوستس للتكنولوجيا والذي يعمل في مجال الروبوتات الذكية: «هذه هي المشكلة الأكبر.

بصفتي باحثاً في هذا المجال، أعلم أنني بالتأكيد لا أستطيع الوثوق بأي شيء من هذا القبيل. لكن من السهل جداً أن يتم خداع الناس». وبالفعل، تزداد الأمثلة على أنظمة الذكاء الاصطناعي التي تخدع الناس، حيث يحذر علماء الذكاء الاصطناعي من أن هذه مجرد إشارات إلى المخاطر الكامنة في المستقبل.

كما يشيرون إلى إمكانية أن تسمح التكنولوجيا للجهات الفاعلة السيئة بإنشاء أسلحة بيولوجية، أو زيادة فتك الحروب التي تشنها الدول القومية. كما يمكن أن تُمكّن الفاعلين السياسيين عديمي الضمير من استخدام الصور المزيفة والمعلومات المضللة بشكل فعال لدرجة أن ينهار التماسك الاجتماعي للأمة، وهو أمر حيوي لمواجهة التحديات البيئية والسياسية.

الرئيس التنفيذي لشركة «أوبن إيه آي»، سام التمان، قال أمام لجنة بمجلس الشيوخ الأميركي الشهر الماضي، إن التلاعب بالناخبين ونشر معلومات مضللة من أكبر المخاوف، خاصة مع اقتراب موعد الانتخابات الأميركية العام المقبل. وأضاف: «سيكون التدخل التنظيمي من قبل الحكومات أمرا بالغ الأهمية للتخفيف من مخاطر النماذج التي تتزايد قوتها».

وتعد «أوبن إيه آي» هي الشركة المنشئة لروبوت الدردشة تشات جي بي تي، الذي أثار قدراً كبيراً من الضجة بشأن الذكاء الاصطناعي منذ إطلاقه للجمهور في أواخر العام الماضي. لقد أثارت الآمال في أن يصبح العمال أكثر إنتاجية، وفي تمكين الباحثين من القيام باكتشافات أسرع، وفي ازدياد وتيرة التقدم بشكل عام.

وخلال استطلاع للرؤساء التنفيذيين الأسبوع الماضي، قال 42% من المستَطلعين إن الذكاءَ الاصطناعي يمكن أن يدمر البشرية خلال 10 أو حتى خمس سنوات، بينما قال 58% إن هذا لن يحدث أبداً وإنهم «غير قلقين». يحرص المشرِّعون على جانبي المحيط الأطلسي على إقامة حواجز حماية للتكنولوجيا المزدهرة. وقد أخذ الاتحاد الأوروبي بزمام المبادرة الأسبوع الماضي من خلال الموافقة على مسودة قانون من شأنه تصنيف تقنيات الذكاء الاصطناعي من الخطر «الأدنى» إلى الخطر «غير المقبول».

وسيتم حظر الذكاء الاصطناعي الذي يعتبر غير مقبول وسيتم تنظيم التطبيقات «عالية الخطورة» بشكل صارم. ومن المحتمل أن تُعتبر العديد من تقنيات الذكاء الاصطناعي الرائدة اليوم ذات مخاطر عالية أو غير مقبولة.وفي الولايات المتحدة، أنشأ المعهد الوطني للمعايير والتكنولوجيا إطاراً لإدارة مخاطر الذكاء الاصطناعي. لكن الكثيرين في الكونجرس يريدون الذهاب إلى أبعد من ذلك، لا سيما في ضوء الفشل الملحوظ في تنظيم وسائل التواصل الاجتماعي في الوقت المناسب.

ما تزال كيفية تنظيم هذه الصناعة مجهولة، إذ يسعى العديد من صانعي السياسات للحصول على المزيد من الشفافية من الشركات حول كيفية بناء أنظمة الذكاء الاصطناعي الخاصة بهم، وهو مطلب في قانون الاتحاد الأوروبي المقترح.

وهناك فكرة أخرى يتم طرحها وهي إنشاء وكالة تنظيمية تشرف على الشركات التي تطور التكنولوجيا وتقلل من المخاطر. كتب جاسي ريس أنثيس، طالب الدكتوراه في جامعة شيكاغو والمؤسس المشارك لمعهد سينتاينس (مؤسسة فكرية أميركية متعددة التخصصات متخصصة في الإيثار الفعال وبحوث الحركة الاجتماعية.): «نحن كمجتمع نتجاهل كل هذه المخاطر. إذ نستخدم التدريب والتعزيز لتطوير نظام قوي للغاية ولكنه لا يزال [بمثابة صندوق أسود] حتى بالنسبة لمصمميه. هذا يعني أننا لا نستطيع أن نوائمه مع أهدافنا بشكل موثوق، سواء كان ذلك هو هدف تحقيق الإنصاف في العدالة الجنائية أو عدم التسبب في الانقراض».

 

لوران بيلسي*

*صحفي بارز متخصص في الاقتصاد لدى صحيفة «كريستيان ساينس مونيتور»

ينشر بتريتب خاص «كريستيان ساينس مونيتور»